41 resultados para BANDA DESENHADA

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente estudo analisa a relação entre facção e sistema eleitoral no Uruguai. Toma-se a reforma constitucional de 1996 como paradigma que busca a eliminação das facções pela modificação do sistema eleitoral. Mostra-se que nem todas as facções no Uruguai decorrem, necessariamente, do sistema eleitoral. A origem dos principais partidos políticos é discutida e com ela se analisa a base social de cada um. O crescimento eleitoral da esquerda, dentro de um sistema eleitoral concebido para garantir a continuidade dos partidos tradicionais, é apresentado com o ponto de partida da reforma. Uma comparação entre os dois sistemas eleitorais – o antigo e o novo – leva a conclusão que os partidos tradicionais, por não conseguirem resolver problemas de coordenação no pólo conservador do sistema de partidos, acabam por operar uma reforma que garanta mais representação proporcional frente uma oposição crescente, que tende a ser maioria. Com a teoria dos jogos, os incentivos e a lógica para a formação de coligações de facções são aportados ao estudo demonstrando que as mesmas atuam de forma cooperativa para suplantar estratégias, que individualmente conferem menores ganhos. Mecanismos clássicos de mensuração de número efetivo de partidos (NEP) apontam a quantidade de facções relevantes no sistema. Conclui-se que as facções são agentes relevantes do sistema e que a reforma do sistema eleitoral agiu de forma diversa sobre as facções dos três maiores partidos Uruguaios, não eliminando o fenômeno faccionista.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A sensação de dor é mediada por diferentes sistemas de transmissão, os quais estão continuamente sendo integrados e modulados por diversos mecanismos neurais, agindo em diferentes períodos de tempo. Para o estudo da dor neuropática, um dos modelos mais empregados é a lesão nervosa periférica, sendo que a maioria desses estudos é realizada em mamíferos. Apesar da ausência de um arranjo laminar, a medula espinal de anfíbios apresenta muitas similaridades anatômicas e funcionais com a dos mamíferos. Por isso, o estudo desses animais pode fornecer subsídios adicionais para compreensão dos mecanismos da transmissão nociceptiva, além de esclarecer os aspectos evolutivos envolvidos na mesma. No presente trabalho foi analisado o padrão de imunorreatividade ao neuropeptídeo Y (NPY), peptídeo relacionado ao gene da calcitonina (CGRP), somatostatina (SOM) e ácido γ-aminobutírico (GABA) em medula espinal lombossacral de rãs Rana catesbeiana em condições basais e após a secção do nervo ciático. Para isso, foram utilizados animais adultos, de ambos os sexos, os quais foram divididos em grupos controle (animais em condições basais) e experimental (animais submetidos à secção do nervo ciático). Para o estudo da imunorreatividade ao NPY, os animais desnervados foram sacrificados 3, 7 e 15 dias após a secção do nervo ciático. Para CGRP, SOM e GABA os intervalos de tempo considerados foram de 3, 5, 8 e 15 dias após a axotomia. A técnica imunoistoquímica utilizada foi a de Sternberger (1979), sendo utilizados anticorpos primários do tipo policlonal nas concentrações de 1:1000 (GABA e neuropeptídeo Y), 1:500 (somatostatina) e 1:100 (CGRP). A imunorreação foi semi-quantificada através de densitometria óptica. A intensidade dos produtos de reação foi comparada entre os lados ipsilateral e contralateral à lesão e com o grupo controle. Os resultados obtidos nos animais controle foram semelhantes aos descritos anteriormente para os anfíbios. A maior intensidade de imunorreação ocorreu na parte dorsal do funículo lateral para todas as substâncias neuroquímicas consideradas. Imunorreatividade ao GABA, NPY e SOM ainda foram observadas ao longo do funículo lateral e no funículo ventral. Na substância cinzenta, o corno dorsal apresentou maior imunorreatividade quando comparado ao ventral, sendo esta uma característica comum entre as substâncias neuroquímicas consideradas no presente estudo. Neurônios bitufted imunorreativos para GABA, NPY e SOM foram detectados na banda mediolateral. No corno ventral, neurônios motores apresentaram imunorreação à SOM, ao CGRP e ao GABA, sendo neste último de fraca intensidade. Após a desnervação periférica não houve variação no padrão de distribuição da imunorreatividade à SOM e ao CGRP. Entretanto, a axotomia causou uma redução significativa na imunorreatividade ao GABA na parte dorsal do funículo lateral no lado ipsilateral à lesão. Essa diminuição foi evidenciada 3 dias após a desnervação, persistindo aos 5, 8 e 15 dias após a secção do nervo ciático. A imunorreatividade ao NPY apresentou inicialmente (3 e 7 dias após a axotomia) um aumento bilateral na intensidade de reação. Porém, 15 dias após a desnervação periférica, houve uma queda na imunorreatividade ao NPY, a qual também foi evidenciada bilateralmente. Esses resultados sugerem o envolvimento das substâncias neuroquímicas abordadas neste estudo no processamento das informações sensoriais de rãs Rana catesbeiana. Todavia, ainda é especulativa a participação das mesmas nos mecanismos de transmissão e codificação da nocicepção nesses animais. Estudos complementares são necessários para o esclarecimento dessas questões. Todavia, pode-se afirmar que o corno dorsal desses animais apresenta uma circuitaria complexa, onde diferentes sistemas de neurotransmissores e/ou neuromoduladores interagem para a modulação dos sinais nociceptivos, semelhante ao que é descrito para os mamíferos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em fontes de nêutrons por spallation para pesquisa de materiais, o comprimento de onda dos nêutrons é geralmente determinado pelos tempos de percurso (TOF) dos nêutrons desde a fonte até o detector. A precisão atingível é limitada pelo fato de o tempo de emissão do pulso característico do sistema alvo/moderador ser diferente de zero (a situação ideal fictícia seria a emissão se ocorresse na forma de um impulso). “Moderadores acoplados” (elementos usados para produzir feixes de alta intensidade com nêutrons de baixa energia) apresentam um decaimento de intensidade em função do tempo muito longo, ao longo de todo o espectro usado nos experimentos. Por este motivo, “moderadores desacoplados”, os quais produzem feixes com intensidade mais reduzida, são freqüentemente usados para instrumentos que requerem alta resolução. Neste trabalho, propusemos e analisamos uma nova técnica de filtragem dinâmica de feixes de nêutrons polarizados de baixa energia para experimentos que utilizam TOF na determinação do comprimento de onda. O dispositivo consiste de um sistema ótico polarizador/analisador e um inversor de spin seletivo em energia, o qual funciona por ressonância espacial do spin. Variando a condição de ressonância em sincronia com a estrutura temporal do pulso de nêutrons (através do controle de campos magnéticos), o filtro pode ajustar a resolução de energia (ou de comprimento de onda) de pulsos de banda larga em tais experimentos, separando os nêutrons com a correta relação “TOF/comprimento de onda” dos demais Um método para o cálculo de desempenho do sistema foi apresentado em um Trabalho Individual (TI) (PARIZZI et al., 2002 - i), do qual se fará aqui uma breve revisão além de amplo uso na otimização dos parâmetros a serem ajustados para o projeto do filtro. Os resultados finais mostram que ganhos consideráveis em resolução podem ser obtidos com a aplicação desta técnica em experimentos de reflectometria por tempo de percurso, sem que para tal seja necessário comprometer a intensidade do feixe usado pelo mesmo instrumento quando operado em um modo de baixa resolução, dando ao usuário do instrumento a opção de escolher a relação ótima entre intensidade e resolução para seu experimento. Como parte da conclusão desta dissertação, é apresentada uma proposta de parâmetros para a construção deste tipo de filtro e previsão de desempenho da configuração proposta, baseada no software de modelamento desenvolvido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o estudo da distribuição de extinção na Galáxia e nas Nuvens de Magalhães é feito através da análise dos mapas de avermelhamento derivados da emissão 100f-Lmda poeira E(B- V)FIR de Schlegel et ai. (1998). Comparamos valores de avermelhamento E(B- V)FIR com os derivados do conteúdo estelar de 103 aglomerados abertos velhos e 150 aglomerados globulares da Galáxia. As diferenças entre os dois avermelhamentos, quando significativas, ocorrem principalmente em baixas latitudes galáticas, no sentido de que os valores E(B-V)FIR são mais altos devido à contribuição do fluxo 100f-Lmda poeira que se encontra atrás dos aglomerados. As diferenças também podem surgir por um valor de E(B-V)FIR superestimado devido aos grãos de poeira terem temperatura T> 21 K o que parece ocorrer principalmente na direção do Centro da Galáxia. Construímos um catálogo geral de nebulosas escuras unificando 15 catálogos da literatura reunindo~ 6300 itens. Após cruzamentos, o catálogo unificado contém 4956 nebulosas escuras. Medimos valores de E(B-V)PIR no centro destas nebulosas escuras e amostramos seus arredores. Encontramos contraste preferencialmente para nebulosas escuras a médias e altas latitudes galáticas. Nebulosas escuras próximas ao Plano Galático apresentam flutuações maiores nos valores de E(B- V)FIR nos arredores, devido às contribuições de densidade de coluna de poeira das nebulosas e meio difuso acumulados em profundidade ao longo da linha de visada. Utilizamos a fotometria JHKs do 2MASS para obter mapas de extinção em regiões candidatas a regiões de baixa extinção (janelas) na direção do Bojo Galático Confirmamos a existência das janelas e encontramos uma grande semelhança entre os mapas de extinção na banda K derivados a partir do conteúdo estelar e os derivados da emissão da poeira. Tal semelhança na distribuição do avermelhamento nos mapas se deve à maior parte das nuvens de poeira estar localizada entre nós e as estrelas do Bojo. Realizamos a busca de aglomerados infravermelhos jovens compactos (semelhantes aos aglomerados Arches e Quintuplet) próximo ao Centro Galático utilizando o Atlas de imagens JHKs do 2MASS. Encontramos 58 candidatos a aglomerados, importantes alvos para grande telescópios. Nas direções das Nuvens de Magalhães, testamos os valores de E(B- V)FIR nas linhas de visada de galáxias de fundo comparando esses valores com os avermelhamentos derivados através dos espectros observados das galáxias. A obtenção do avermelhamento foi feita comparando a distribuição de contínuo dos espectros das galáxias observadas na direção das Nuvens com o contínuo de espectros médios de semelhante população estelar (formados por galáxias em altas latitudes galáticas) corrigidos por extinção . O avermelhamento foi derivado para 36 galáxias projetadas sobre as Nuvens de Magalhães e obtivemos um avermelhamento médio total (galático + interno) de E(B-V) = 0.12 para a Grande Nuvem e E(B-V) = 0.05 para Pequena Nuvem, sendo o avermelhamento interno estimado em E(B- V)i = 0.06 e E(B- V)i = 0.04 para Grande e Pequena Nuvem respectivamente. Para 86 % da amostra obtivemos uma boa concordância entre os valores de avermelhamento espectroscópicos e os derivados da emissão da poeira Os casos de diferenças significativas foram interpretados como devidos à distribuição de poeira ter uma escala menor que a resolução dos mapas de avermelhamento E(B-V)FIR ou ao superaquecimento da poeira, como ocorre principalmente na direção do Centro Galático. As presentes análises da extinção através da Galáxia e das Nuvens de Magalhães fornecem evidências da importância, utilidade e algumas limitações dos mapas de poeira de Schlegel et aI. (1998) para estudos galáticos e extragaláticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente Dissertação propõe uma biblioteca de comunicação de alto desempenho, baseada em troca de mensagens, especificamente projetada para explorar eficientemente as potencialidades da tecnologia SCI (Scalable Coherent Interface). No âmago da referida biblioteca, a qual se denominou DECK/SCI, acham-se três protocolos de comunicação distintos: um protocolo de baixa latência e mínimo overhead, especializado na troca de mensagens pequenas; um protocolo de propósito geral; e um protocolo de comunicação que emprega uma técnica de zero-copy, também idealizada neste Trabalho, no intuito de elevar a máxima largura de banda alcançável durante a transmissão de mensagens grandes. As pesquisas desenvolvidas no decurso da Dissertação que se lhe apresenta têm por mister proporcionar um ambiente para o desenvolvimento de aplicações paralelas, que demandam alto desempenho computacional, em clusters que se utilizam da tecnologia SCI como rede de comunicação. A grande motivação para os esforços envidados reside na consolidação dos clusters como arquiteturas, a um só tempo, tecnologicamente comparáveis às máquinas paralelas dedicadas, e economicamente viáveis. A interface de programação exportada pelo DECK/SCI aos usuários abarca o mesmo conjunto de primitivas da biblioteca DECK (Distributed Execution Communication Kernel), concebida originalmente com vistas à consecução de alto desempenho sobre a tecnologia Myrinet. Os resultados auferidos com o uso do DECK/SCI revelam a eficiência dos mecanismos projetados, e a utilização profícua das características de alto desempenho intrínsecas da rede SCI, haja visto que se obteve uma performance muito próxima dos limites tecnológicos impostos pela arquitetura subjacente. Outrossim, a execução de uma clássica aplicação paralela, para fins de validação, testemunha que as primitivas e abstrações fornecidas pelo DECK/SCI mantêm estritamente a mesma semântica da interface de programação do original DECK.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram analisados espectros óticos de fenda longa de 29 galáxias que hospedam núcleos ativos (AGNs), sendo 6 galáxias Seyfert 1, 18 galáxias Seyfert 2, 4 Rádio-galáxias de linhas estreitas (NLRG) e 1 Rádio-galáxia de linhas largas (BLRG). Estas galáxias apresentam emissão por gás de alta excitação que se estende em alguns casos a 10 kpc do núcleo. O objetivo do presente trabalho consiste em estudar e caracterizar as propriedades físicas da região estendida de linhas estreitas (ENLR) destes objetos bem como propriedades da fonte central. A distribuição radial de parâmetros que caracterizam o gás emissor em cada galáxia, tais como brilho superficial das linhas de emissão, densidade do gás, massa, extinção e excitação são obtidos. Estes valores característicos são comparados entre as diferentes classes de atividade nuclear presentes em nossa amostra, bem como às propriedades de galáxias normais com o mesmo tipo de Hubble quando possível. Nós encontramos que a massa de gás ionizado é consistente com a hipótese de que o gás é “originado” na fotoionização pela fonte central das nuvens de HI préexistentes na galáxia hospedeira. Os valores observados das razões entre as linhas estreitas de emissão são comparados com os obtidos através de modelos de fotoionização gerados com o código MAPPINGS Ic, obtendo os parâmetros do modelo – densidade, índice espectral da distribuição de energia e da metalicidade do gás – que melhor reproduzem as observações. Observamos que a variação da abundância química do gás é necessária para explicar o espalhamento nos valores observados. Adicionalmente, comparamos os valores observados com os obtidos com modelos de choques gerados por Dopita & Sutherland. Investigamos também a influência da emissão proveniente de regiões HII ao espectro observado – a qual concluímos ser importante particularmente nas regiões emissoras mais distantes do que 2 kpc do núcleo. Nós determinamos a luminosidade ionizante da fonte central nos AGNs usando a aproximação de que as nuvens de gás são limitadas por radiação, e obtivemos os correspondentes valores para o fator de cobertura do gás. Esta luminosidade ionizante foi então comparada com a luminosidade observada em raios-X na banda 2 –10 keV, através de aproximações para a distribuição espectral de energia (SED). Para 9 galáxias Seyfert 2 a luminosidade observada está disponível, e verificamos que nosso método recupera a luminosidade do AGN em raios-X – assim como obtida dos dados do satélite ASCA – bem como identifica os 3 casos Compton espessos. Por fim, investigamos a natureza do contínuo infravermelho (IR) médio e distante – comparandose a luminosidade observada no IR, calculada a partir dos fluxos IRAS, com a luminosidade predita para um toro que envolve a fonte central absorvendo a radiação incidente e re-emitindo esta no infravermelho. Encontramos que a luminosidade observada no IR é consistente com a luminosidade predita para o torus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dislipidemia são alterações nas concentrações dos lipídios no organismo, e são divididos em hipo e hiperlipidemias. As hiperlipidemias possuem maior importância clínica, frequentemente associadas com um aumento no risco em desenvolver outras doenças, como doenças coronarianas, pancreatites, etc. Altas concentrações dos lipídios plasmáticos, principalmente colesterol total, estão associados com doenças coronarianas. Altos níveis de triglicerídios e baixos níveis de HDL-colesterol, também são fatores que predispõem a doenças cardiovasculares. Os níveis de triglicerídios podem ter várias causas: como a dieta ou alterações relacionadas ao metabolismo lipídico. Este estudo foi composto por 96 indivíduos descendentes de japoneses residindo no Sul do Brasil (Cascavel-PR). O objetivo deste trabalho foi analisar alterações nos lipídios plasmáticos em uma população específica – indivíduos descendentes de japoneses residentes na região de Cascavel (PR) . Foram determinados os níveis de triglicerídios, colesterol total, HDL-colesterol, LDL-colesterol, VLDL-colesterol, apolipoproteína A-I e B e o padrão eletroforético de lipoproteínas em 96 indivíduos japoneses entre 10 a 89 anos. Para os níveis de triglicerídios, 18,7% dos indivíduos descendentes de japoneses obtiveram valores acima de 200 mg/dL.. Quando relacionamos os níveis de colesterol total, 69,7% dos indivíduos descendentes de japoneses possuem níveis acima da normalidade. Observamos dois padrões eletroforéticos de lipoproteínas na população japonesa; 10,4% desses indivíduos obtiveram alterações na banda pré-beta relacionada ao VLDL-colesterol e 8,3% obtiveram alterações nas bandas da origem (Quilomicra) e na banda pré-beta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A informática vem adquirindo papéis cada vez mais importantes na vida cotidiana. Um dos papéis mais significativos, hoje, é o suporte a comunicações; atualmente, é muito difícil pensar em comunicações – mesmo interpessoais – sem fazer associação às áreas de informática e redes. Dentre as aplicações que utilizam informática e redes como suporte, a tecnologia de videoconferência tem recebido papel de destaque. Os avanços na tecnologia de redes e conectividade, aliados à padronização e à crescente oferta de produtos de videoconferência, têm aumentado a aplicabilidade e a popularidade destes produtos, sobretudo utilizados sobre arquitetura de redes TCP/IP. Trata-se de uma tecnologia atraente em termos de resultado, por agregar, além do áudio – recurso comum há muito tempo como suporte à comunicação – os recursos de vídeo e aplicações integradas (como quadro-branco compartilhado, Chat, troca de arquivos e outros). Contudo, essas aplicações são bastante exigentes, tanto em termos de banda quanto de qualidade de serviço (QoS) da rede. O primeiro item se justifica pelo volume de dados gerados pelas aplicações de videoconferência; o segundo, pela significativa influência que os problemas de qualidade da infraestrutura de rede (como elevada latência, jitter e descartes) podem exercer sobre tais aplicações. A busca para as soluções destes problemas não é tarefa simples, pois muitas vezes envolve investimentos que desencorajam a adoção da tecnologia de videoconferência – principalmente para uso pessoal ou por empresas pequenas. Este trabalho propõe uma solução aos problemas mencionados, visando proporcionar uma melhor aceitação e maior disseminação da tecnologia de videoconferência, valendo-se de recursos com pouca demanda de investimento. A estratégia abordada é a adaptação de tráfego, com um enfoque diferenciado: o de levar em conta, para cada aplicação, o comportamento que o processo de adaptação apresentasse. A partir dessa orientação, é proposto um modelo de adaptação de tráfego orientado ao perfil da aplicação, voltado ao interesse do usuário, e que disponibilize uma forma ao mesmo tempo simples e eficiente para que o usuário realize a adequação do mecanismo de adaptação do sistema às suas necessidades e expectativas. A partir desta proposta, foi implementado um protótipo de aplicação, com o objetivo de verificar a funcionalidade do modelo em termos práticos. As observações dos resultados dos testes, bem como as conclusões geradas, serviram como validação da proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho foi desenvolvido com a finalidade de verificação da aplicabilidade dos conceitos da moderna Estratigrafia de Seqüências no interior cratônico e a possibilidade do refinamento cronoestratigráfico da seção eo/mesodevoniana da Bacia do Amazonas. O autor utilizou as seguintes ferramentas disponíveis para a interpretação e elaboração de um modelo geológico para a seção sedimentar estudada: a) a análise da Paleogeografia, do Paleomagnetismo e da Paleoecologia, através do estudo da Tectônica e do Clima atuantes no Eo/mesodevoniano, no Supercontinente Gondwana, retratadas em reconstituições do mundo devoniano e apoiada em extensiva consulta bibliográfica e em correlação com os conteúdos faunístico, icnológico e litológico da seção que compõe o intervalo pesquisado, com o auxílio de testemunhos, amostras de calha e afloramentos, b) o estabelecimento de superfícies-chave da Estratigrafia de Seqüências, definidas com o apoio de perfis elétrico-radioativos, notadamente o perfil de raios-gama, c) a Cicloestratigrafia química com a utilização dos teores de carbono orgânico e o índice de hidrogênio, d) a Cicloestratigrafia orbital e climática, mediante a análise espectral do perfil de raios-gama da seção estudada e a definição do controle da sedimentação, influenciada pela excentricidade curta da órbita terrestre, em ciclos dentro da banda de freqüências de Milankovitch. O encadeamento dessas análises levou o autor a montar um arcabouço cronoestratigráfico para o Eo/mesodevoniano da porção ocidental da Bacia do Amazonas. Para tanto, foram consideradas a hierarquização das unidades, a definição dos tratos de sistemas deposicionais, limites de seqüências e outras superfícies-chave estratigráficas, e a duração temporal dos eventos. Além disso, são discutidas as possíveis causas principais da evolução tectono-estratigráfica da seção estudada e sua associação com a curva de variação do nível do mar devoniano. Realizou-se ainda, tentativamente, a correlação com outras bacias intracratônicas gondwânicas através da comparação do conteúdo faunístico, da xvii paleoclimatologia, da tectônica, da análise da variação da curva do nível do mar devoniano, da posição geográfica e da relação com o Pólo Sul devoniano, que serviram de base para a compreensão do evento relacionado à passagem do Givetiano ao Frasniano, nessas bacias. Como contribuições principais o autor aponta a aplicabilidade da Estratigrafia de Seqüências no interior cratônico e a possibilidade de refinamento cronoestratigráfico em pelo menos uma ordem de grandeza (10 6 anos para 10 5 anos) com a utilização da metodologia da Cicloestratigrafia orbital.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A codificação de vídeo de modo a permitir a escalabilidade durante a transmissão tem se tornado um tópico de grande nos últimos anos. Em conjunto com um algorítmo de controle de congestionamento, é possível a criação de um ambiente de transmissão multimída mais apropriado. Esta dissertação apresente um algoritimo de codificação de vídeo escalável baseado em bit-planes. O modelo de codificação do video utiliza 3D-DCT para codificação espacial e temporal e um quantizador escalar semelehante ao empregado no MPEG 4. A técnica de escalabilidade em bit-planes implementada permite a divisão da saída de codificador em taxas complementares e com granularidade fina. Este algorítmo e parte integrante doprojeto SAM (Sistema Adaptativo Multimídia), que busca criar um ambiente de transmissão multimídia adaptativo em tempo real. Este projeto está em desenvolvimento na tese de doutorado de Valter Roesler. O algorítmo proposto e implementado é capaz de transmitir de forma unidirecional vídeos de baixa movimentação. Os resultados dos testes realizados com a implementação feita mostram que a solução proposta é flexível em realação a tecnologia disponível de transmissão através do ajuste no númerp de camadas e suas respectivas especificações de banda. Os testes realizados apresentaram um desempenho aceitável para codificação e decodificação de vídeo em tempo real. A taxa de compressão apresentou resultados satisfatórios na transmissao em ambientes de baixa velocidade para as camadas inferiores, bem como taxas de transmissão para ambientes em ADSL, cable modem e rede local para as camadas superiores. Com relação a qualidade do vídeo, esta varia de acordo com o grau de movimentação do mesmo. Por exemplo, no modelo "talking-head", comum em videoconferências, a qualidade se mostrou viável para ambientes de baixa velocidade (56 kbits/s).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O mundo atravessa uma fase de incertezas sobre o câmbio. O objetivo deste trabalho é apresentar uma revisão bibliográfica sobre o assunto, trazendo os modelos que tentam elucidar como se forma a taxa de câmbio no curto e longo prazo. Serão tratados os motivos que levaram o Brasil a abandonar a política de bandas cambiais em 1999 e quais as medidas tomadas pelas autoridades econômicas, bem como o impacto destas sobre a economia. Ao longo dessa análise será calculada a taxa de câmbio real e real efetiva mensalmente com data base julho de 1994, permitindo visualizar as fases de apreciação e depreciação do câmbio. Encerrando o capítulo uma revisão teórica do impacto das políticas monetária e fiscal sobre o câmbio à luz dos diferentes regimes cambiais existentes. Finalmente, uma revisão dos fatos que levaram às crises cambiais no México, Tailândia, Malásia, Indonésia, Coréia do Sul, Rússia e Argentina, analisando os principais indicadores macroeconômicos destas economias tentando encontrar elementos comuns que permitam entender os motivos das crises.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foram estudadas a síntese, a caracterização, a estabilidade térmica e as propriedades adsorventes de um novo xerogel híbrido, p-anisidinapropilsílica. O material foi sintetizado a partir do método sol-gel utilizando como precursor orgânico a p-anisidinapropiltrimetoxisilano (AnPTMS), também sintetizado em nosso laboratório. O precursor orgânico foi gelatinizado simultaneamente com tetraetilortosilicato (TEOS). Foram sintetizadas cinco amostras de xerogéis contendo diferentes graus de incorporação orgânica. A incorporação orgânica foi monitorada a partir da variação da concentração de precursor orgânico adicionado, nos valores: 0,05; 0,15; 0,23; 0,35; e 0,46 mol.l-1, sendo que os xerogéis resultantes foram designados como A, B, C, D e E, respectivamente. Os xerogéis foram tratados termicamente sob vácuo e analisados por espectroscopia no infravermelho (Termoanálise na região do Infravermelho). Os espectros mostraram que a área sob a banda em 1500 cm-1, devida ao anel aromático da p-anisidina, diminui com o aumento da temperatura do tratamento térmico e esta diminuição é mais pronunciada nos materiais cuja incorporação orgânica foi menor. Entretanto, os xerogéis com maior incorporação orgânica (amostras D e E) apresentaram boa estabilidade térmica da fase orgânica até a temperatura de 300 oC Foram obtidas isotermas de adsorção e dessorção de nitrogênio para as amostras A, B, C e D, sendo que a partir delas foram obtidas a área superficial, volume e distribuição do tamanho de poros dos xerogéis. Todas as amostras mostraram porosidade na região de mesoporos (2-50 nm), entretanto, foi observado que o aumento da incorporação orgânica resultou em diminuição da área superficial bem como do tamanho dos mesoporos dos xerogéis. Entretanto, todas as amostras mostraram boa estabilidade térmica morfológica, visto que não foram observadas variações significativas na distribuição de poros com aquecimento até a temperatura de 350 oC. Os xerogéis foram lavados com hexano e diclorometano para a remoção de parafina e pequenas frações de oligômero altamente organofuncionalizado residuais. A amostra D foi utilizada como fase estacionária em coluna de pré-concentração de uma amostra padrão de ésteres ftálicos, mostrando um promissor desempenho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Voz sobre IP (VoIP) é uma tecnologia que permite a digitalização e a codificação da voz e o empacotamento em pacotes de dados IP para a transmissão em uma rede que utilize o protocolo TCP/IP. Devido ao volume de dados gerados por uma aplicação VoIP, esta tecnologia se encontra em funcionamento, em redes corporativas privadas. Mas se a rede base para o transporte desta aplicação for a Internet, certamente, não deve ser utilizada para fins profissionais, pois o TCP/IP não oferece padrões de QoS (Qualidade de Serviço) comprometendo desta forma a qualidade da voz. A qualidade da voz fica dependente do tráfego de dados existentes no momento da conversa. Para realizar um projeto de VoIP é necessário conhecer todo o tráfego existente na rede e verificar o quanto isto representa em relação à banda total da rede. Também se deve conhecer o tipo de aplicação que se deseja implantar, verificando a banda a ser utilizada por esta, e então projetar como a rede deverá ser estruturada. Para auxiliar no projeto de VoIP, pretende-se mostrar o que está sendo desenvolvido para que o protocolo TCP/IP ofereça QoS e uma ferramenta para análise do tráfego de voz sobre redes TCP/IP e também análises dos resultados obtidos em experimentos simulando diversas situações práticas.